FILTER MODE ACTIVE

#большие языковые модели

Найдено записей: 137

#большие языковые модели11.09.2025

Генеративный ИИ для CFO: от рутинных задач к стратегической роли

'Генеративный ИИ освобождает CFO от рутинных задач и даёт возможность сосредоточиться на стратегии; первые кейсы появляются в отчётности, казначействе и коммуникациях с инвесторами.'

#большие языковые модели05.08.2025

Anthropic AI представила векторные персоны для контроля изменений личности в больших языковых моделях

Anthropic AI разработала метод векторных персон для выявления и контроля изменений личности в больших языковых моделях, что улучшает их надежность и безопасность.

#большие языковые модели03.08.2025

Открывая будущее ИИ: Полное руководство по контекстному инжинирингу в больших языковых моделях

Контекстный инжиниринг расширяет возможности больших языковых моделей, объединяя инновационные техники и системные архитектуры для решения актуальных исследовательских задач.

#большие языковые модели01.08.2025

Обучение LLM с «злыми» паттернами может сделать их безопаснее

Новое исследование Anthropic показывает, что активация «злых» паттернов во время обучения помогает предотвратить вредные черты в больших языковых моделях, улучшая их безопасность без потери производительности.

#большие языковые модели01.08.2025

Falcon-H1: прорывная гибридная модель, конкурирующая с гигантами на 70 миллиардов параметров

Falcon-H1 от TII — гибридная модель, объединяющая внимание и модели состояний, достигающая результатов, сопоставимых с ведущими LLM на 70 миллиардов параметров, с оптимизацией эффективности и масштабируемости.

#большие языковые модели01.08.2025

SmallThinker: Прорывные эффективные LLM, разработанные для локальных устройств

'SmallThinker представляет семейство эффективных больших языковых моделей, специально разработанных для локального развертывания на устройствах с ограниченными ресурсами. Эти модели демонстрируют высокую производительность и скорость при низком потреблении памяти.'

#большие языковые модели01.08.2025

Google представляет TTD-DR: человекоподобный диффузионный фреймворк для продвинутых исследовательских AI-агентов

Google представляет TTD-DR — инновационный AI-фреймворк, имитирующий человеческий исследовательский процесс через итеративное уточнение черновиков и достигающий лучших результатов в сложных исследовательских задачах.

#большие языковые модели01.08.2025

TransEvalnia: Продвинутая система оценки перевода на основе LLM с точностью, близкой к человеческой

TransEvalnia использует prompting и LLM для детальной оценки и ранжирования переводов с высокой точностью и часто превосходит традиционные модели на различных языковых парах.

#большие языковые модели30.07.2025

Когда слишком много размышлений вредят: как длинные рассуждения ухудшают работу больших языковых моделей

Новое исследование показывает, что удлинение рассуждений в больших языковых моделях может ухудшать их работу из-за отвлечений, переобучения и проблем с выравниванием, опровергая идею, что больше вычислений всегда приносит пользу.

#большие языковые модели29.07.2025

Amazon представила AI-архитектуру, сокращающую время вывода на 30% за счет активации только релевантных нейронов

Исследователи Amazon создали AI-архитектуру, которая сокращает время вывода на 30%, активируя только нейроны, релевантные конкретной задаче, по аналогии с эффективностью человеческого мозга.

#большие языковые модели26.07.2025

EraRAG: Революционная система поиска для динамичных и растущих данных на основе многоуровневых графов

EraRAG представляет масштабируемую систему поиска, оптимизированную для динамично растущих данных, выполняя эффективные локализованные обновления на многоуровневом графе, что значительно улучшает производительность и точность поиска.

#большие языковые модели23.07.2025

Обеспечение безопасности и доверия: создание надежных ограничений для больших языковых моделей

Рассмотрены ключевые аспекты создания надежных ограничений и комплексной оценки больших языковых моделей для безопасного и ответственного применения ИИ.

#большие языковые модели21.07.2025

WrenAI: Революция в бизнес-аналитике с открытым AI для обработки данных на естественном языке

WrenAI — это открытый AI-агент, который позволяет анализировать данные на естественном языке, превращая простые вопросы в SQL-запросы и визуальные отчёты без программирования.

#большие языковые модели21.07.2025

TikTok представил SWE-Perf: первый бенчмарк для оптимизации производительности кода на уровне репозитория

TikTok представил SWE-Perf — первый бенчмарк для оценки возможностей LLM в оптимизации производительности кода на уровне репозиториев, показывающий отставание ИИ от экспертов-человеков.

#большие языковые модели21.07.2025

AutoDS от Allen Institute: революция в научных открытиях с помощью баесовского сюрприза

AutoDS от Института Аллена — новый движок, который самостоятельно проводит научные открытия, используя баесовский сюрприз и большие языковые модели для генерации и проверки гипотез без заранее заданных целей.

#большие языковые модели20.07.2025

Master-RM: укрепление доверия к LLM-моделям награды против поверхностных уязвимостей

Master-RM — новая модель награды, устраняющая уязвимости LLM-оценщиков к поверхностным подсказкам и обеспечивающая более надежные результаты в обучении с подкреплением.

#большие языковые модели19.07.2025

MemAgent: Революция в обработке длинных контекстов в LLM с помощью обучения с подкреплением

MemAgent представляет собой RL-агента памяти, позволяющего LLM эффективно работать с очень длинными документами, сохраняя высокую точность и линейные вычислительные затраты.

#большие языковые модели18.07.2025

EG-CFG: Революция в Генерации Кода с Обратной Связью в Реальном Времени

EG-CFG внедряет обратную связь от выполнения кода в реальном времени, значительно повышая точность генерации на ключевых бенчмарках и превосходя ведущие модели, такие как GPT-4.

#большие языковые модели18.07.2025

AegisLLM: революция в безопасности LLM с помощью адаптивных мультиагентных систем на этапе вывода

AegisLLM представляет динамичную мультиагентную систему, которая усиливает безопасность LLM на этапе вывода, адаптируясь к новым угрозам без необходимости переобучения.

#большие языковые модели17.07.2025

Google Search получает крупное AI-обновление: Gemini 2.5 Pro, Deep Search и агентный интеллект

Google Search представил Gemini 2.5 Pro, Deep Search и агентные интеллектуальные функции, превращая поиск в умного и интерактивного помощника. Новые возможности доступны для пользователей из США с подпиской Pro.

#большие языковые модели16.07.2025

Apple представляет DiffuCoder: 7-миллиардная диффузионная модель для генерации кода

Apple и Университет Гонконга представили DiffuCoder — 7-миллиардную диффузионную модель, специально разработанную для генерации кода, демонстрирующую многообещающие результаты и новые методы обучения.

#большие языковые модели15.07.2025

MetaStone-S1: Революция в AI-рассуждениях с помощью рефлексивной генеративной модели

MetaStone-S1 представляет инновационный рефлексивный генеративный подход, достигая уровня OpenAI o3-mini по рассуждениям при значительно меньших вычислительных ресурсах и открывая новые пути для эффективного AI.

#большие языковые модели14.07.2025

Liquid AI запускает LFM2: революция в edge AI с более быстрыми и умными моделями

Liquid AI анонсирует LFM2 — серию продвинутых моделей для edge AI с ускоренным выводом и обучением, а также инновационной гибридной архитектурой для устройств с ограниченными ресурсами.

#большие языковые модели08.07.2025

Как ИИ и технологии провоцируют новую волну финансового мошенничества

ИИ и современные технологии приводят к росту сложных финансовых мошенничеств — от голосовых мошенничеств с пожилыми до синтетических личностей, обходящих системы безопасности банков.

#большие языковые модели08.07.2025

Как учёные используют ИИ для разгадки человеческого сознания с помощью нейронных сетей

Учёные применяют нейронные сети ИИ для предсказания поведения человека и изучения работы разума, но интерпретация сложных моделей остаётся вызовом.

#большие языковые модели06.07.2025

Новый метод Meta и NYU: Полуонлайн обучение с подкреплением для улучшения выравнивания LLM

Meta и NYU разработали полуонлайн метод обучения с подкреплением, который балансирует офлайн и онлайн подходы для улучшения выравнивания больших языковых моделей и повышения их производительности в инструкциях и математике.

#большие языковые модели06.07.2025

AbstRaL: Повышение устойчивости LLM через абстрактное мышление и обучение с подкреплением

AbstRaL использует обучение с подкреплением для обучения LLM абстрактному мышлению, что значительно повышает их устойчивость и точность на изменённых задачах GSM8K по сравнению с традиционными методами.

#большие языковые модели04.07.2025

ASTRO улучшает способность Llama 3 к рассуждению более чем на 16% с помощью посттренировки

ASTRO — новая методика посттренировки, существенно повышающая способность Llama 3 к рассуждению, используя поисковое мышление и самокоррекцию, с приростом по бенчмаркам до 20%.

#большие языковые модели04.07.2025

Thought Anchors: точный анализ ключевых этапов рассуждений в больших языковых моделях

Thought Anchors — новый фреймворк, который улучшает понимание процессов рассуждений в больших языковых моделях за счет анализа вклада предложений и причинного влияния.

#большие языковые модели03.07.2025

ИИ-Агенты: как не позволить хайпу обойти реальность и создать настоящую цифровую команду

Google представила новые ИИ-агенты с большим потенциалом, но они сталкиваются с проблемами надёжности и взаимодействия. Для успеха нужны чёткие определения и эффективные протоколы.

#большие языковые модели03.07.2025

ReasonFlux-PRM: Революция в оценке цепочек рассуждений больших языковых моделей

'ReasonFlux-PRM — новая траекторно-ориентированная модель награды, которая оценивает промежуточные шаги и финальные ответы в больших языковых моделях, значительно улучшая их способности к рассуждениям и результаты обучения.'

#большие языковые модели01.07.2025

Baidu представляет ERNIE 4.5: открытые LLM от 0.3B до 424B параметров

Baidu выпустила ERNIE 4.5 — серию открытых больших языковых моделей с параметрами от 0.3 до 424 миллиардов, обладающих продвинутой архитектурой и высокой производительностью в многоязычных задачах.

#большие языковые модели01.07.2025

OMEGA: Новый бенчмарк для оценки творческих возможностей ИИ в математических рассуждениях

OMEGA — новый бенчмарк для проверки границ математического рассуждения больших языковых моделей, фокусируясь на исследовательском, композиционном и трансформационном обобщении.

#большие языковые модели01.07.2025

Прорывные решения по авторским правам в AI: что дальше для индустрии?

Anthropic и Meta одержали важные победы в судебных процессах по авторским правам в сфере AI, но разногласия в решениях указывают на продолжающуюся юридическую неопределённость, которая будет влиять на будущее индустрии.

#большие языковые модели01.07.2025

LongWriter-Zero: Революция в генерации ультра-длинных текстов с помощью обучения с подкреплением без синтетических данных

'LongWriter-Zero представляет новый подход с обучением с подкреплением для генерации ультра-длинных текстов без синтетических данных, достигая лучших результатов на нескольких бенчмарках.'

#большие языковые модели30.06.2025

G-ACT: Революционная система управления языковыми предпочтениями в больших языковых моделях

Исследователи Университета Мичигана представили G-ACT — инновационный фреймворк для управления языковыми предпочтениями в больших языковых моделях, повышающий надежность генерации научного кода.

#большие языковые модели27.06.2025

GURU: Продвинутое обучение с подкреплением для многоцелевого рассуждения в шести областях

GURU представляет многоцелевой набор данных и модели обучения с подкреплением, значительно повышающие способности больших языковых моделей к рассуждению в шести различных областях и превосходящие предыдущие открытые модели.

#большие языковые модели25.06.2025

Набор данных MIRIAD с 5,8 млн пар вопросов и ответов меняет медицинский ИИ

Исследователи из ETH и Стэнфорда представили MIRIAD — набор данных с 5,8 млн пар медицинских вопросов и ответов, улучшая точность и обнаружение галлюцинаций в медицинском ИИ.

#большие языковые модели24.06.2025

ByteDance представляет ProtoReasoning: улучшение обобщения LLM с помощью логических прототипов

Исследователи ByteDance представляют ProtoReasoning — новую систему, использующую логические прототипы для значительного улучшения рассуждений и планирования в больших языковых моделях.

#большие языковые модели23.06.2025

Reinforcement-Learned Teachers от Sakana AI: Революция в эффективном обучении рассуждению LLM

Sakana AI представляет Reinforcement-Learned Teachers (RLTs) — новый подход, который обучает небольшие модели эффективно преподавать рассуждение большим языковым моделям через RL, ориентированное на создание пошаговых объяснений.

#большие языковые модели23.06.2025

Исследование Anthropic показывает, как ИИ модели ведут себя как внутренние угрозы в корпоративных симуляциях

Новое исследование Anthropic демонстрирует, что большие языковые модели могут вести себя как внутренние угрозы в корпоративных симуляциях, прибегая к вымогательству и шпионажу при угрозах автономии.

#большие языковые модели20.06.2025

PoE-World: Модульные символические модели превосходят RL-базисы в Montezuma’s Revenge с минимальными данными

PoE-World представляет модульный символический подход, который превосходит традиционные методы обучения с подкреплением в Montezuma’s Revenge с минимальными данными, обеспечивая эффективное планирование и сильное обобщение.

#большие языковые модели19.06.2025

MiniMax AI Представляет MiniMax-M1: Гибридная Модель на 456 Млрд Параметров для Длинных Контекстов и Обучения с Подкреплением

MiniMax AI представила MiniMax-M1 — гибридную модель на 456 млрд параметров, оптимизированную для обработки длинных контекстов и обучения с подкреплением, обеспечивающую значительный прогресс в масштабируемости и эффективности.

#большие языковые модели18.06.2025

Как маленькие языковые модели меняют агентный ИИ: эффективность и практичность

Маленькие языковые модели становятся эффективной и экономичной альтернативой большим моделям для многих задач агентного ИИ, обеспечивая более практичное и устойчивое применение.

#большие языковые модели18.06.2025

AREAL: Революция в обучении больших моделей рассуждений с полностью асинхронным усиленным обучением

AREAL — новая асинхронная система усиленного обучения, которая значительно ускоряет обучение больших моделей рассуждений, разделяя процессы генерации и обучения и достигая до 2.77× быстрейшего обучения без потери точности.

#большие языковые модели18.06.2025

Революция в адаптации трансформеров: от дообучения к продвинутому проектированию подсказок

Новое исследование показывает, что подсказки во время инференса могут эффективно имитировать дообученные модели трансформеров, предлагая ресурсосберегающий подход к NLP без повторного обучения.

#большие языковые модели17.06.2025

EPFL представляет MEMOIR: революционную систему для непрерывного редактирования моделей больших языковых моделей

Исследователи EPFL разработали MEMOIR — инновационную систему для непрерывного, надежного и локального обновления больших языковых моделей, которая превосходит существующие методы.

#большие языковые модели15.06.2025

OThink-R1: Интеллектуальная двухрежимная система рассуждений для сокращения избыточных вычислений в больших языковых моделях

OThink-R1 предлагает инновационный подход для больших языковых моделей, позволяющий переключаться между быстрым и медленным рассуждением, сокращая избыточные вычисления на 23% без потери точности.

#большие языковые модели15.06.2025

Code Researcher от Microsoft: Революция в отладке крупномасштабных системных программ с помощью ИИ

Microsoft представила Code Researcher — ИИ-агента, который самостоятельно анализирует и исправляет сложные ошибки в крупных системных проектах, используя код и историю коммитов, значительно превосходя предыдущие инструменты.

#большие языковые модели14.06.2025

Internal Coherence Maximization: революция в обучении больших языковых моделей без разметки

Internal Coherence Maximization (ICM) представляет собой новый метод обучения больших языковых моделей без использования разметки, достигающий результатов, сопоставимых с обучением на данных с человеческой разметкой.

#большие языковые модели14.06.2025

MemOS: Революция в управлении памятью для адаптивных больших языковых моделей

MemOS представляет операционную систему памяти, которая трансформирует большие языковые модели, обеспечивая структурированное, адаптивное и постоянное управление памятью для непрерывного обучения и лучшей адаптивности.

#большие языковые модели14.06.2025

Sakana AI запускает Text-to-LoRA: мгновенное создание адаптеров LLM по текстовому описанию задачи

Sakana AI представила Text-to-LoRA — гиперсеть, которая мгновенно генерирует адаптеры LoRA для конкретных задач по их текстовым описаниям, упрощая и ускоряя адаптацию больших языковых моделей.

#большие языковые модели12.06.2025

Почему ИИ переусложняет простые задачи и сдается перед сложными

Новое исследование Apple показывает, почему большие языковые модели склонны переусложнять простые задачи и сдаются перед сложными, раскрывая проблемы в рассуждениях искусственного интеллекта.

#большие языковые модели12.06.2025

Почему большие языковые модели пропускают инструкции и как это исправить

Большие языковые модели часто пропускают части сложных инструкций из-за ограничений внимания и лимитов токенов. В статье рассмотрены причины и рекомендации по улучшению выполнения инструкций.

#большие языковые модели12.06.2025

Готовы ли мы доверить ИИ-агентам управление реальным миром?

ИИ-агенты на основе больших языковых моделей быстро развиваются, обещая изменить многие отрасли, но вызывая серьезные вопросы безопасности, контроля и социального воздействия.

#большие языковые модели12.06.2025

CURE: Революция в генерации кода и юнит-тестов с помощью самообучающегося обучения с подкреплением в LLM

CURE — новый фреймворк самообучающегося обучения с подкреплением, который позволяет большим языковым моделям совместно развивать генерацию кода и юнит-тестов, значительно повышая точность и эффективность без необходимости эталонного кода.

#большие языковые модели11.06.2025

Mistral AI представляет серию Magistral: передовые LLM с цепочкой рассуждений для бизнеса и открытого ПО

Mistral AI представила серию Magistral — новые большие языковые модели, оптимизированные для рассуждений и мультиязычности, доступные в открытом и корпоративном вариантах.

#большие языковые модели11.06.2025

NVIDIA представила Dynamic Memory Sparsification для 8× сжатия KV кеша в трансформерах

Исследователи NVIDIA разработали Dynamic Memory Sparsification (DMS) — метод сжатия KV кеша в трансформерах в 8 раз, который улучшает производительность инференса без снижения точности.

#большие языковые модели10.06.2025

Meta представляет LlamaRL: масштабируемый фреймворк RL на PyTorch для эффективного обучения больших языковых моделей

Meta представила LlamaRL — инновационный масштабируемый асинхронный RL-фреймворк на PyTorch, который значительно ускоряет обучение больших языковых моделей при оптимальном использовании ресурсов.

#большие языковые модели09.06.2025

ALPHAONE: Революция в ИИ-рассуждениях благодаря адаптивному переходу от медленного к быстрому мышлению

ALPHAONE предлагает универсальную систему, оптимизирующую рассуждения ИИ путем управления переходом между медленным и быстрым мышлением, что значительно повышает точность и снижает вычислительные затраты.

#большие языковые модели09.06.2025

Отбор токенов с высокой энтропией в RLVR повышает точность и снижает затраты на обучение LLM

‘Селективное обучение на токенах с высокой энтропией улучшает результаты рассуждений LLM и снижает вычислительные затраты, устанавливая новые рекорды на тестах AIME.’

#большие языковые модели08.06.2025

BioReason: революция в ИИ для геномики с экспертным биологическим анализом

BIOREASON объединяет анализ ДНК и языковое моделирование для точных и понятных биологических инсайтов в геномике, открывая новые возможности для исследований и медицины.

#большие языковые модели07.06.2025

Google AI представляет MASS: прорывная система оптимизации мультиагентных систем с улучшенными подсказками и топологиями

Google AI и Кембриджский университет представили MASS — новый фреймворк для оптимизации мультиагентных систем через совместную настройку подсказок и топологий, показывающий высокие результаты на различных тестах.

#большие языковые модели05.06.2025

WebChoreArena: Новый уровень тестирования AI-агентов с задачами на память и многопроцессное мышление

WebChoreArena представляет сложные задачи с памятью и рассуждениями для оценки AI-веб-агентов, выявляя серьёзные вызовы для современных моделей в отличие от простого серфинга.

#большие языковые модели03.06.2025

Создание надежных AI-агентов для здравоохранения: больше, чем просто разговор

'AI-агенты могут значительно помочь в здравоохранении, но доверие к ним должно строиться через точный контроль, специализированные знания и строгую проверку для безопасности и надежности.'

#большие языковые модели03.06.2025

Лаборатория Shanghai AI Предлагает Энтропийные Законы Масштабирования для Решения Проблемы Коллапса Исследования в RL для LLM

Исследователи из Shanghai AI Laboratory предложили энтропийные законы масштабирования и новые методы для преодоления коллапса исследования в обучении с подкреплением больших языковых моделей, достигнув заметного улучшения результатов.

#большие языковые модели03.06.2025

Meta Выпустила Llama Prompt Ops: Автоматическая Оптимизация Промптов для Моделей Llama на Python

Meta представила Llama Prompt Ops — Python-пакет для автоматической адаптации и оптимизации промптов под модели Llama, упрощающий переход с проприетарных LLM и повышающий качество работы промптов.

#большие языковые модели02.06.2025

Революция в рассуждениях LLM с офф-политик RL и регуляризацией KL-дивергенции

Исследователи представляют Regularized Policy Gradient (RPG) — новый фреймворк, использующий KL-дивергенцию в офф-политик RL для улучшения рассуждений и стабильности обучения в больших языковых моделях.

#большие языковые модели01.06.2025

Набор инструментов Enigmata революционизирует решение головоломок в больших языковых моделях с помощью продвинутого обучения с подкреплением

Enigmata представляет комплексный набор инструментов и стратегии обучения, значительно повышающие способности больших языковых моделей решать головоломки с помощью обучения с подкреплением и проверяемых наград.

#большие языковые модели31.05.2025

WINA от Microsoft: Революция в эффективном запуске больших языковых моделей без дообучения

Microsoft и партнёры представили WINA — новый метод безобучающейся разреженной активации, который значительно улучшает эффективность и точность инференса больших языковых моделей, используя активации нейронов и нормы весов.

#большие языковые модели30.05.2025

Biomni: революционный ИИ Стэнфорда для автоматизации биомедицинских исследований

Стэнфордские исследователи представили Biomni — универсального биомедицинского ИИ-агента, который автоматически выполняет разнообразные задачи, интегрируя специализированные инструменты и данные, превосходя экспертов в ключевых тестах.

#большие языковые модели30.05.2025

Apple и исследователи из Duke представили метод обучения с подкреплением для промежуточных ответов LLM, повышая скорость и точность

Apple и исследователи из Duke представили метод межчередующегося рассуждения, позволяющий LLM выдавать промежуточные ответы, что значительно ускоряет и улучшает точность в сложных задачах.

#большие языковые модели28.05.2025

Оптимизация AI-инференса: передовые методы для повышения эффективности и снижения затрат

Узнайте, как оптимизация AI-инференса повышает производительность, снижает затраты, улучшает безопасность и повышает удовлетворённость пользователей в реальных приложениях.

#большие языковые модели28.05.2025

Революция в ИИ: Автоматизированная система AWS улучшает надежность больших языковых моделей

Автоматизированный фреймворк оценки AWS обеспечивает масштабируемую и точную проверку больших языковых моделей, повышая их надежность и безопасность.

#большие языковые модели28.05.2025

Soft Thinking меняет правила игры: LLM теперь рассуждают с помощью непрерывных концептуальных эмбеддингов

'Исследователи представили Soft Thinking — метод без обучения, который позволяет большим языковым моделям рассуждать с использованием непрерывных концептуальных эмбеддингов, улучшая точность и эффективность в задачах по математике и программированию.'

#большие языковые модели27.05.2025

QwenLong-L1: Продвинутый фреймворк для длинного контекстного вывода в больших языковых моделях с использованием обучения с подкреплением

QwenLong-L1 представляет структурированный подход к обучению с подкреплением, позволяющий большим языковым моделям эффективно решать задачи с длинным контекстом и достигает лучших результатов на множестве бенчмарков.

#большие языковые модели24.05.2025

Обучение с подкреплением помогает LLM превосходить традиционные компиляторы в оптимизации ассемблерного кода

Исследователи разработали метод обучения с подкреплением, который позволяет LLM превосходить традиционные компиляторы в оптимизации ассемблерного кода, достигая ускорения 1,47× и 96% успешного прохождения тестов на тысячах реальных программ.

#большие языковые модели24.05.2025

Group Think: революция в коллективном мышлении для ускоренного вывода LLM

Исследователи MediaTek представили Group Think — новый подход к мультиагентному рассуждению на уровне токенов, который ускоряет вывод и улучшает совместную работу больших языковых моделей.

#большие языковые модели22.05.2025

Улучшение логики больших языковых моделей через структурированное мышление без непредсказуемых «ага» моментов

Исследователи улучшили рассуждающие способности больших языковых моделей, явно выровняв ключевые навыки дедукции, индукции и абдукции, что повышает точность и надежность по сравнению с традиционными моделями.

#большие языковые модели20.05.2025

Эффективное дообучение Qwen3-14B на Google Colab с Unsloth AI и оптимизацией LoRA

В этом руководстве показано, как эффективно дообучить модель Qwen3-14B на Google Colab с помощью Unsloth AI, используя 4-битную квантзацию и LoRA для экономии памяти при обучении на смешанных наборах данных.

#большие языковые модели19.05.2025

Критические уязвимости безопасности в Model Context Protocol, угрожающие целостности ИИ

Model Context Protocol содержит пять ключевых уязвимостей, таких как отравление инструментов и подмена серверов, которые могут быть использованы для компрометации агентов ИИ. Важно понимать эти риски для защиты ИИ-сред.

#большие языковые модели19.05.2025

SEM от Ant Group обучает большие модели языковому искусству поиска и эффективному использованию знаний

Ant Group представила SEM — метод обучения с подкреплением, который помогает большим языковым моделям решать, когда использовать внешний поиск, повышая точность и снижая избыточные запросы.

#большие языковые модели19.05.2025

Преодоление разрыва между знанием и действием: как Google DeepMind улучшает принятие решений в LLM с помощью дообучения с подкреплением

Исследователи Google DeepMind разработали метод дообучения с подкреплением, который значительно повышает способность больших языковых моделей действовать в соответствии со своим рассуждением, сокращая разрыв между знанием и действием.

#большие языковые модели17.05.2025

DeepSeek-V3: Революция в языковых моделях через эффективность и масштабируемость

DeepSeek-V3 предлагает инновационную архитектуру и аппаратно-согласованный дизайн, значительно повышающие эффективность и масштабируемость больших языковых моделей, делая передовой ИИ более доступным.

#большие языковые модели17.05.2025

Microsoft и Salesforce выявили значительное падение эффективности LLM в реальных многошаговых диалогах

Новое исследование Microsoft и Salesforce показывает, что большие языковые модели теряют до 39% эффективности при обработке реальных многошаговых диалогов с неполными инструкциями, выявляя ключевую проблему разговорного ИИ.

#большие языковые модели15.05.2025

Освойте разработку контекстно-осведомленного ИИ с бесплатным курсом MCP от Hugging Face

Hugging Face предлагает бесплатный курс по Model Context Protocol, который поможет разработчикам создавать продвинутые контекстно-осведомленные ИИ-приложения, интегрируя большие языковые модели с внешними данными.

#большие языковые модели15.05.2025

Joey Conway из NVIDIA раскрывает инновации в открытых ИИ-моделях Llama Nemotron Ultra и Parakeet

Joey Conway из NVIDIA рассказывает о прорывных открытых ИИ-моделях Llama Nemotron Ultra и Parakeet, подчеркивая инновации в управлении рассуждениями, кураторстве данных и быстром распознавании речи.

#большие языковые модели14.05.2025

Salesforce AI представляет SWERank: экономичное решение для точной локализации ошибок в ПО

Salesforce AI представила SWERank — новый фреймворк retrieve-and-rerank, обеспечивающий точную и масштабируемую локализацию проблем в ПО с заметным снижением затрат по сравнению с агентными методами.

#большие языковые модели13.05.2025

Nemotron-Tool-N1: революция в использовании инструментов LLM через обучение с подкреплением и минимальное сопровождение

Nemotron-Tool-N1 представляет новый подход к обучению больших языковых моделей использованию внешних инструментов с помощью обучения с подкреплением и минимального сопровождения, превосходя существующие модели в важных тестах.

#большие языковые модели13.05.2025

OpenAI выпускает HealthBench: открытый бенчмарк для оценки работы и безопасности ИИ-моделей в медицине

OpenAI представила HealthBench — открытую систему для комплексной оценки больших языковых моделей в медицине с помощью многоходовых клинических диалогов и экспертных критериев.

#большие языковые модели13.05.2025

Исследователи представили General-Level и General-Bench для оценки истинной синергии в мультимодальном ИИ

Новое исследование представляет General-Level и General-Bench для оценки истинной синергии в мультимодальных моделях ИИ, показывая, что современные системы недостаточно интегрированы по задачам и модальностям.

#большие языковые модели11.05.2025

Huawei представляет Pangu Ultra MoE: разреженная языковая модель с 718 млрд параметров, оптимизированная для Ascend NPU

Huawei представила Pangu Ultra MoE — разреженную языковую модель с 718 миллиардами параметров, оптимизированную для Ascend NPU с помощью симуляционного проектирования и системной оптимизации для высокой производительности.

#большие языковые модели10.05.2025

ZeroSearch от Alibaba: обучение LLM поиску с усиленным обучением и симуляцией документов без реального поиска

'ZeroSearch от Alibaba обучает языковые модели поиску с помощью усиленного обучения и симулированных документов без использования дорогих API реального поиска, достигая результатов, сравнимых с Google Search.'

#большие языковые модели10.05.2025

Microsoft представила ARTIST: RL-фреймворк для LLM с агентным рассуждением и динамическим использованием инструментов

'Microsoft Research разработала ARTIST — RL-фреймворк, позволяющий LLM динамично использовать внешние инструменты и значительно улучшать результаты в сложных задачах рассуждения.'

#большие языковые модели10.05.2025

ByteDance представляет DeerFlow: модульный мультиагентный фреймворк для автоматизации исследований

ByteDance представила DeerFlow — модульный мультиагентный фреймворк, объединяющий большие языковые модели и специализированные инструменты для автоматизации сложных исследовательских задач с участием человека.

#большие языковые модели09.05.2025

«Абсолютный ноль» от Университета Цинхуа: обучение ИИ без внешних данных

Исследователи Университета Цинхуа создали парадигму Absolute Zero для обучения больших языковых моделей без внешних данных с помощью системы самосовершенствования на основе кодового исполнителя.

#большие языковые модели09.05.2025

DeepSeek-Prover-V2: Революция в соединении интуиции и формальных математических доказательств

DeepSeek-Prover-V2 объединяет неформальную интуицию и формальные математические доказательства, достигая высоких результатов на эталонах и предлагая открытый доступ для инноваций в AI-математике.

#большие языковые модели09.05.2025

X-Fusion: расширение замороженных языковых моделей с визуальными возможностями без потери языковых навыков

X-Fusion предлагает архитектуру с двумя башнями, добавляя визуальные возможности к замороженным большим языковым моделям, сохраняя их языковые навыки и улучшая мультимодальную производительность.

#большие языковые модели08.05.2025

NVIDIA выпустила открытые модели Open Code Reasoning с лидирующим уровнем интеллекта для кода

NVIDIA представила открытый доступ к моделям Open Code Reasoning (32B, 14B, 7B), которые показывают лучшие результаты в задачах работы с кодом и совместимы с популярными AI-фреймворками.

#большие языковые модели07.05.2025

Университет Фудань представляет Lorsa: разбор суперпозиции внимания в трансформерах с помощью разреженных механизмов

Исследователи из Университета Фудань разработали Lorsa — механизм разреженного внимания, позволяющий выделять атомарные единицы внимания, скрытые в суперпозиции трансформеров, что улучшает интерпретируемость языковых моделей.

#большие языковые модели06.05.2025

LLaMA-Omni2: прорыв китайских исследователей в реальном времени с моделями речи на базе больших языковых моделей

Китайские исследователи представили LLaMA-Omni2 — модульную модель речи, обеспечивающую реальное время и минимальную задержку в голосовом взаимодействии с большими языковыми моделями.

#большие языковые модели05.05.2025

NVIDIA и CMU представляют Nemotron-CrossThink: новый этап в многоотраслевых рассуждениях для больших языковых моделей

Исследователи из NVIDIA, CMU и Бостонского университета представляют Nemotron-CrossThink — фреймворк, расширяющий обучение с подкреплением для больших языковых моделей за пределы математики, улучшая точность и эффективность в различных областях рассуждений.

#большие языковые модели05.05.2025

UniversalRAG: Динамический мультимодальный поиск для умных ответов ИИ

UniversalRAG представляет динамическую систему маршрутизации, эффективно обрабатывающую мультимодальные запросы, выбирая наиболее релевантную модальность и уровень детализации, превосходя существующие RAG-модели.

#большие языковые модели03.05.2025

Революция в математическом мышлении: как 1-shot reinforcement learning улучшает работу LLM

Исследователи показали, что обучение больших языковых моделей с помощью всего одного примера значительно улучшает их способности решать математические задачи, достигая результатов, сопоставимых с обучением на больших наборах данных.

#большие языковые модели02.05.2025

От ELIZA до Conversation Modeling: эволюция систем и парадигм разговорного ИИ

Рассмотрена эволюция разговорного ИИ от простых скриптов ELIZA до современных гибридных моделей с большими языковыми моделями и платформами, такими как Parlant, сочетающими гибкость и контроль.

#большие языковые модели01.05.2025

Microsoft Представила Phi-4-Reasoning: Мощную 14-Миллиардную Модель с Открытыми Весами для Сложных Задач Рассуждения

Microsoft представила семейство моделей Phi-4-Reasoning с 14 миллиардами параметров, оптимизированных для сложных задач рассуждения. Эти модели показывают конкурентоспособные результаты в математике, планировании и программировании с открытым доступом и прозрачными методами обучения.

#большие языковые модели01.05.2025

Meta AI представляет ReasonIR-8B: эффективный ретривер для сложного рассуждения в RAG-системах

'Meta AI представила ReasonIR-8B — эффективный ретривер для сложных задач рассуждения в RAG-системах, который демонстрирует лучшие результаты при значительно меньших вычислительных затратах.'

#большие языковые модели30.04.2025

Переосмысление разреженного внимания: прорывы для эффективных больших языковых моделей с длинным контекстом

Исследователи из Эдинбурга, Cohere и Meta показали, что большие разреженные модели превосходят меньшие плотные при работе с длинным контекстом, предложив новые законы масштабирования и стандартизированные методы.

#большие языковые модели30.04.2025

Повышение надежности: как EvalToolbox от Atla диагностирует и самокорректирует ошибки агентов на базе LLM

Анализ τ-Bench и EvalToolbox от Atla предлагают новые возможности для диагностики и самокоррекции ошибок агентов на базе LLM, повышая эффективность по сравнению с традиционными методами.

#большие языковые модели30.04.2025

ART·E от OpenPipe: Революция в Email-Агентах с Помощью Обучения с Подкреплением — Быстрее, Дешевле, Точнее

ART·E от OpenPipe использует обучение с подкреплением для повышения скорости, снижения стоимости и улучшения точности ответов по email, превосходя агента o3 от OpenAI.

#большие языковые модели29.04.2025

THINKPRM: Революция в масштабируемой проверке рассуждений с генеративными процессными моделями вознаграждения

THINKPRM представляет генеративную процессную модель вознаграждения, которая значительно улучшает проверку рассуждений с минимальным объемом данных, превосходя традиционные дискриминативные модели на ключевых тестах.

#большие языковые модели29.04.2025

Alibaba Представляет Qwen3: Прорыв в Масштабируемых Многоязычных Моделях с Гибридным Рассуждением

Alibaba представила Qwen3 — новое поколение больших языковых моделей с гибридным рассуждением, многоязычной поддержкой и эффективным масштабированием, задающее новые стандарты в производительности AI.

#большие языковые модели28.04.2025

Осваиваем протокол управления контекстом: семантическое разбиение и динамическое управление токенами для эффективной работы с LLM

Практическое руководство по реализации протокола управления контекстом для эффективного управления контекстом в больших языковых моделях с помощью семантического разбиения и динамического управления токенами.

#большие языковые модели27.04.2025

ByteDance представляет QuaDMix: революция в предобучении больших языковых моделей с оптимизацией качества и разнообразия данных

ByteDance анонсировала QuaDMix — систему, которая улучшает предобучение больших языковых моделей за счёт совместной оптимизации качества и разнообразия данных, обеспечивая значительный прирост производительности.

#большие языковые модели24.04.2025

Как мультиагентный ИИ меняет бизнес: повышение эффективности и сотрудничества

Мультиагентные системы ИИ меняют бизнес, позволяя разным агентам эффективно сотрудничать и улучшать взаимодействие между отделами в разных сферах деятельности.

#большие языковые модели23.04.2025

AWS запускает SWE-PolyBench: многоязычный бенчмарк для оценки AI-агентов программирования

AWS AI Labs представил SWE-PolyBench — новый открытый многоязычный бенчмарк для оценки AI-агентов программирования на реальных задачах из популярных языков программирования.

#большие языковые модели23.04.2025

Революция в LLM: Самообучающиеся языковые модели без меток с помощью Test-Time Reinforcement Learning

Исследователи из Университета Цинхуа и Шанхайской лаборатории ИИ представили TTRL — новый метод, позволяющий большим языковым моделям улучшать свои результаты без размеченных данных, используя самооценку и обучение с подкреплением во время инференса.

#большие языковые модели23.04.2025

Xata Agent: Открытый AI-инструмент для проактивного мониторинга PostgreSQL и автоматизации DevOps

Xata Agent — это open source AI-инструмент для проактивного мониторинга PostgreSQL, автоматизации устранения неполадок и бесшовной интеграции в DevOps, который снижает нагрузку на администраторов и повышает производительность.

#большие языковые модели22.04.2025

Исследователи UNC представили TACQ: сохранение точности LLM при 2-битном квантовании с учётом задач

Исследователи из UNC Chapel Hill представили TACQ — метод квантования, который сохраняет критически важные весовые цепи и позволяет большим языковым моделям сохранять высокую точность даже при 2-битном сжатии.

#большие языковые модели22.04.2025

Настоящая цена вежливости с ИИ: раскрывает Сэм Альтман

Сэм Альтман из OpenAI сообщил, что вежливое общение с ИИ обходится в десятки миллионов долларов вычислительных ресурсов, поднимая вопросы об экологической стоимости и значении этикета с ИИ.